Колорадо е първият щат, който се опитва да регулира скритата роля на изкуствения интелект в американския живот
ДЕНВЪР (AP) — Първите опити за контролиране на стратегии с изкуствен интелект, които играят скрита роля при наемането, жилищата и медицинските решения за милиони от американците са изправени пред напън от всички страни и се блъскат в държавните домове в цялата страна.
Само един от седемте законопроекта има за цел да предотврати склонността на ИИ да дискриминира при вземането на произлизащи решения – в това число кой да бъде нает, пари за дом или медицински грижи — мина. Губернаторът на Колорадо Джаред Полис нерешително подписа законопроекта в петък.
Законът на Колорадо и тези, които се провалиха във Вашингтон, Кънектикът и другаде, бяха изправени пред борби на доста фронтове, в това число сред групи за цивилен права и софтуерната промишленост, а законодателите бяха внимателни за нахлуване в технология, която малко на брой към момента схващат, и шефове, обезпокоени да бъдат странните щати и плашещите започващи компании с ИИ.
Полис подписа законопроекта на Колорадо „ с запаси “, като сподели в изказване, че е внимателен от регулации AI иновация. Законопроектът има двугодишен период и може да бъде изменен, преди да стане закон.
„ Насърчавам (законодателите) доста да подобрят това, преди да влезе в действие “, написа Полис.
Предложението на Колорадо, дружно с шест спомагателни законопроекта, са комплицирани, само че като цяло ще изискват от фирмите да оценят риск от дискриминация от техния AI и осведоми клиентите, когато AI е употребен, с цел да им помогне да вземат следващо решение за тях.
Законопроектите са обособени от повече от 400 законопроекта, свързани с ИИ, които бяха разисквани тази година. Повечето са ориентирани към елементи от AI, като да вземем за пример потреблението на дълбоки имитации в избори или за основаване на порнография.
Седемте законопроекта са по-амбициозни, ползват се в главните промишлености и са ориентирани към дискриминирането, един от най-перверзните и комплицирани проблеми на технологията.
„ Всъщност нямаме видимост за употребяваните логаритми, без значение дали са работят или не, или дали сме дискриминирани “, сподели Руман Чоудхури, делегат на AI към Държавния департамент на Съединени американски щати, който преди този момент е управлявал екипа по нравственос на AI на Twitter.
Въпреки че антидискриминационните закони към този момент са в действие, тези, които учат AI дискриминирането, споделят, че това е друг звяр, чието контролиране Съединени американски щати към този момент изостават.
„ Компютрите вземат пристрастни решения в мащаб “, сподели Кристин Уебър, юрист по цивилен права, който е работил по групови искове за дискриминация, в това число против Boeing и Tyson Foods. Сега Уебър е покрай окончателното утвърждение на едно от първите в страната съглашения в колективен иск против дискриминация на AI.
„ Не, би трябвало да кажа, че старите системи също бяха изцяло свободни от пристрастия “, сподели Уебър. Но „ всеки един човек би могъл да прегледа единствено толкоз доста автобиографии дневно. Така че бихте могли да вземете толкоз доста пристрастни решения единствено за един ден, а компютърът може да го направи бързо измежду огромен брой хора. “
Когато кандидатствате за работа, апартамент или жилищен заем, има добър късмет AI прави оценка вашата кандидатура: изпраща я по линията, присвоява й оценка или я филтрира. Изчислено е, че 83% от работодателите употребяват логаритми, с цел да оказват помощ при наемането, съгласно Комисията за равни благоприятни условия за претовареност.
Самият AI не знае какво да търси в кандидатурата за работа, тъй че се учи въз основа на минали автобиографии. Историческите данни, които се употребяват за образование на логаритми, могат да доведат до пристрастия.
Amazon, да вземем за пример, работи върху логаритъм за наемане, който е подготвен върху остарели автобиографии: най-вече мъже претенденти. При оценката на новите претенденти, той намалява автобиографиите с думата „ женски “ или изброяващите женски колежи, защото те не са показани в историческите данни – автобиографиите – от които е научил. Проектът беше провален.
В правосъдния иск на Уебър се твърди, че AI система, която прави оценка заявки за наем, непропорционално е дала по-ниски резултати на чернокожи или испанци претенденти. Проучване откри, че система с изкуствен интелект, основана за оценка на медицинските потребности, предава чернокожи пациенти за специфични грижи.
Проучвания и правосъдни каузи разрешиха да се надникне под капака на системите с изкуствен интелект, само че множеството логаритми остават завоалирани. Американците значително не знаят, че тези принадлежности се употребяват, демонстрира изследване на Pew Research. По принцип от фирмите не се изисква категорично да разкриват, че е употребен AI.
„ Просто дръпването на завесата, с цел да можем да забележим кой в действителност прави оценката и какъв инструмент се употребява, е голяма, голяма първа стъпка “, сподели Уебър. „ Съществуващите закони не работят, в случай че не можем да получим най-малко някаква съществена информация. “
Това се пробват да трансформират законопроектът на Колорадо, дружно с различен оживял законопроект в Калифорния. Законопроектите, в това число водещото предложение в Кънектикът, което беше отхвърлено заради съпротивата на губернатора, са значително сходни.
Законопроектът на Колорадо ще изисква от фирмите, употребяващи AI, да оказват помощ при вземането на следващи решения за американците да правят оценка годишно своя AI за капацитет пристрастие; използване на стратегия за контрол в компанията; уведомете основния прокурор, в случай че е открита дискриминация; и да осведоми клиентите, когато е употребен AI, с цел да им помогне да вземат решение, в това число алтернатива за обжалване.
Профсъюзите и учените се притесняват, че разчитането на фирмите, които се самонадзирават, значи, че ще бъде мъчно самодейно да се обърне внимание на дискриминирането в системата на ИИ, преди да е нанесла вреди. Компаниите се опасяват, че насилствената бистрота може да разкрие търговски секрети, в това число при евентуални правосъдни разногласия, в тази свръхконкурентна нова област.
Компаниите с изкуствен интелект също упорстваха за и като цяло получиха наредба, която разрешава единствено на основния прокурор, не жители, да водят каузи по новия закон. Подробностите за правоприлагането са оставени на основния прокурор.
Докато по-големите компании за изкуствен интелект повече или по-малко се съгласяват с тези оферти, група от по-малки компании за изкуствен интелект, основани в Колорадо, обявиха, че условията може да бъдат ръководени от behemoth AI компании, само че не и от начинаещи започващи компании.
„ Ние сме в напълно нова епоха на първична чорба “, сподели Логан Черковник, създател на Thumper.ai, имайки поради региона на AI. „ Наличието на прекомерно рестриктивно законодателство, което ни принуждава да даваме дефиниции и лимитира потреблението на технологии, до момента в който това се образува, просто ще бъде пагубно за нововъведенията. “
Всички се съгласиха, дружно с доста AI компании, че това, което публично се назовава „ алгоритмичната дискриминация “ е от решаващо значение за справяне. Но те споделиха, че законопроектът, както е написан, не доближава тази цел. Вместо това те предложиха усилване на съществуващите антидискриминационни закони.
Чоудхури се тормози, че правосъдните каузи са прекомерно скъпи и лишават доста време, с цел да бъдат ефикасен инструмент за правоприлагане, и вместо това законите би трябвало да надвишават това, което даже Колорадо предлага. Вместо това Чоудхури и учените са предложили акредитирана самостоятелна организация, която може категорично да тества за евентуални пристрастия в логаритъм с ИИ.
„ Можете да разберете и да се справите с един човек, който е дискриминационен или преднамерен “, сподели Чоудхури. „ Какво вършим, когато е вградено в цялата институция? “
___
Бедайн е член на корпуса на Associated Press/Report for America Statehouse News Initiative. Доклад за Америка е стратегия за национални услуги с нестопанска цел, която слага публицисти в локални редакции, с цел да рапортуват по скрити въпроси.